Abschlussarbeiten
Gerne betreuen wir Abschlussarbeiten — sowohl im Bachelor als auch im Bereich des Masters. Bei der Themenauswahl sind wir dabei offen für eigene Themenvorschläge. Für eine inhaltlich gute Betreuung sollte ein Thema aber doch nahe an unseren Schwerpunkten liegen — also sehr allgemein im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens, mit einem besonderen Fokus auf Deep Reinforcement Learning, Robotik, aber aktuell darüber hinaus auch Neuronale Netzwerke und Large Language Models als ein Anwendungsbereich von diesen. Sprechen Sie uns gerne an und schreiben uns eine Mail.
Im folgenden finden Sie eine Auswahl möglicher Themen.
Thema | Zuordnung | Beschreibung |
---|---|---|
Entwicklung eines neuronalen Netzes zur Vorhersage von Bodenkontakt bei laufenden Robotern | Machine Learning / Neuronale Netze [Bachelor] |
Ziel: Entwicklung eines neuronalen Netzes zur Vorhersage des Bodenkontakts von Robotern, basierend auf Servomotordaten. Ansatz: Analyse von Servomotordaten und Bodenkontaktsensordaten eines laufenden Roboters; Entwicklung und Training eines neuronalen Netzes zur Vorhersage des Bodenkontakts. Voraussetzungen: Kenntnisse in Machine Learning, Robotik und Programmierung (vorzugsweise Python). |
Vergleich von State Space Modellen zur Vorhersage von Zeitreihen | Neural Networks, Deep Learning [Bachelor] |
Ziel: Evaluierung der Vorhersagegüte von State Space Modellen wie SMamba, TimeMachine und TwinMamba zur Vorhersage von Zeitreihen. Ansatz: Detaillierte Untersuchung und Vergleich der theoretischen Grundlagen; Implementierung von mind. 1 Modell zur Vorhersage von Zeitreihen; Durchführung von Experimenten zur Bewertung der Vorhersagegenauigkeit und Leistungsfähigkeit des Modells/der Modelle anhand von Benchmark-Datensätzen; Vergleich der Ergebnisse und Analyse der Stärken und Schwächen der einzelnen Modelle. Voraussetzungen: Kenntnisse in Deep (supervised) Learning, Programmierkenntnisse (bevorzugt Python, Pytorch/Tensorflow). |
Implementierung und Auswertung von Positional Encodings für Time Series Forecasting mit Transformern | Neural Networks, Deep Learning [Bachelor] |
Ziel: Bewertung der Wirksamkeit von Positional Encodings bei der Vorhersage von Zeitreihen mit Transformern. Identifikation und Analyse von Schwachstellen der eingesetzten Methoden. Ansatz: Verständnisaufbau für Transformer-Modelle und deren Anwendung im Bereich der Zeitreihen-Vorhersage; Untersuchung bestehender Ansätze des Positional Encodings; Experimenten zur Bewertung des Einflusses verschiedener Positional Encodings auf die Vorhersagegenauigkeit und Leistungsfähigkeit der Modelle anhand von Benchmark-Datensätzen; Identifikation und Analyse der Schwachstellen der verwendeten Methoden und Modelle; ggf. Vorschläge für mögliche Verbesserung. Voraussetzungen: Kenntnisse in Deep (supervised) Learning, Programmierkenntnisse (bevorzugt Python, Pytorch/Tensorflow). |
Integration von ChatGPT in die Planung und Steuerung von Robotern |
Large Language Models, Machine Learning [Master] |
Ziel: ein Robotik-Steuerungssystem, das in einem 2-Systems-Ansatz ChatGPT für die High-Level Planung nutzt, unterstützt durch Deep Reinforcement Learning (DRL) auf der Ausführungsebene. Ansatz: Integration von ChatGPT für übergeordnete Entscheidungsfindung und DRL für die Ausführung, wobei die Belohnungsstruktur von ChatGPT geformt wird. Einsatz von Retrieval-Augmented Generation (RAG) zur Nachverfolgung von Fähigkeiten und Historie. Voraussetzungen: Programmierung in Python, Kenntnisse in DRL, RAG-Modellen. |
Berücksichtigung sensorischer Verzögerungen in Deep Reinforcement Learning | Deep Reinforcement Learning [Bachelor, Master] |
Ziel: Erforschung der Auswirkungen sensorischer Verzögerungen auf dezentrale und zentrale DRL-Systeme – deren Lernverhalten und die Robustheit des gelernten Verhaltens. Ansatz: Vergleich von dezentralem DRL mit geringeren sensorischen Verzögerungen und zentralem DRL unter Einbeziehung größerer Verzögerungen. Analyse des Einflusses dieser Verzögerungen auf die Leistung und das Lernverhalten. Voraussetzungen: Kenntnisse in DRL, Programmierung Python und sensorischer Datenverarbeitung. |
Entwicklung eines model-basierten Deep Reinforcement Learning-Systems mit einem differenzierbaren neuronalen Netzwerk als Körpermodell für Bewegungslernen | Model-based Deep Reinforcement Learning, Robotic Manipulation, Künstliche Intelligenz [Master] |
Ziel: Entwicklung eines model-basierten Deep Reinforcement Learning (DRL)-Systems, das ein differenzierbares neuronales Netzwerk als Körpermodell verwendet. Das primäre Ziel ist es, komplexe Bewegungen wie Manipulation oder Greifen von Objekten zu erlernen und effizient umzusetzen. Ansatz: Einsatz eines differenzierbaren neuronalen Netzwerks, das das physische Modell des Roboters oder der manipulativen Einheit repräsentiert. Das DRL-System wird dann verwendet, um optimale Steuerstrategien für Aufgaben wie Greifen oder Manipulation zu lernen, wobei das neuronale Netzwerk die zugrundeliegenden physischen Interaktionen simuliert. Voraussetzungen: Deep Learning und Reinforcement Learning, Programmierkenntnisse in Python, Grundverständnis der Robotik und kinematischen Modelle |
Intrinsic Motivation zur Exploration in Deep Reinforcement Learning |
Deep Reinforcement Learning (DRL), Machine Learning, KI |
Ziel: Entwicklung und Testung eines DRL-Modells, das Exploration durch Intrinsic Motivation belohnt. Dabei soll die Effizienz und Leistungsfähigkeit des Modells in verschiedenen Control Tasks im OpenAI Gym bewertet werden. Ansatz: Einsatz von zwei zufällig initialisierten neuronalen Netzen zur Messung der Bekanntheit von Erfahrungen, wobei nur ein Netzwerk lernen darf. Dieser Prozess basiert auf der Methode der Random Network Distillation (RND), wobei das lernende Netzwerk sich dem nicht lernenden Netzwerk bei bekannten Erfahrungen annähert und somit neue Zustände erkannt werden können. Voraussetzungen: Grundkenntnisse in Deep Learning und Reinforcement Learning, Vertrautheit mit der OpenAI Gym Umgebung |
Anpassungsfähigkeit von Deep Reinforcement Learning bei sich ändernden internen Bedingungen in Simulationsumgebung | Deep Reinforcement Learning, Robotik [Bachelor] |
Ziel: Untersuchung der Anpassungsfähigkeit eins Deep RL Algorithmus zur Steuerung eines vierbeinigen Roboters in Simulationsumgebung bei variierenden internen Bedingungen wie wachsender Robotergröße oder Variation der Beinlänge. Ansatz: Anpassung einer Simulationsumgebung mit zeitlicher Änderung des Roboters (curriculum). Darin Anwendung eines Feed-Forward Netzwerks als Control-Ansatz und Evaluierung durch Experimente zur Anpassungsfähigkeit an sich ändernde Bedingungen. Mögl. Erweiterung: Vergleich mit alternativem, Zustands-basiertem Netzwerk. Voraussetzungen: Kenntnisse in Deep Reinforcement Learning und Robotik, Programmierkenntnisse (bevorzugt Python, Pytorch/Tensorflow). Erfahrung mit Gym von Vorteil. |
Generierung und Anpassung von Reward Funktionen in Deep Reinforcement Learning durch Large Language Models | Künstliche Intelligenz, Maschinelles Lernen [Bachelor, Master] |
Ziel: Entwicklung eines Verfahrens, bei dem Large Language Models (LLM) genutzt werden, um Reward Funktionen für Deep Reinforcement Learning (DRL) aus sprachlichen Beschreibungen zu generieren. Ansatz: Einsatz von LLMs zur Interpretation sprachlicher Beschreibungen und deren Übersetzung in Reward Funktionen. Experimentelle Anwendung und Anpassung dieser Reward Funktionen in Control Task-Szenarien aus der OpenAI Gym und Evaluation. Voraussetzungen: Deep Reinforcement Learning, Programmiererfahrung (Python), Grundlagenwissen LLMs |